home *** CD-ROM | disk | FTP | other *** search
/ HPAVC / HPAVC CD-ROM.iso / SNNSV32.ZIP / SNNSv3.2 / examples / font.README < prev    next >
Text File  |  1994-04-25  |  3KB  |  85 lines

  1. =============================================================================
  2.     README file for the example files font.xxx
  3. =============================================================================
  4.  
  5.  
  6. Description:    This feedforward network recognizes printed characters 
  7. ===========    of two different fonts. 
  8.  
  9. The characters are displayed in a matrix of 24x24 input units. Each
  10. output neuron represents one character. There are a number of special
  11. characters and punctuation symbols, all captial letters, all lowercase
  12. letters and all digits for a total of 75 character classes.
  13.  
  14.  
  15. Pattern-Files:    font.pat
  16. ==============
  17.  
  18. This file contains 150 input and output patterns for the 75 different
  19. characters (2 characters of each class).
  20.  
  21.  
  22. Network-Files:    font.net
  23. ==============
  24.  
  25. The network font.net contains a trained feedforward network for this
  26. task. It consists of 24x24 = 576 input units, two groups of 4x6 hidden
  27. units and 75 output units. The input layer is NOT fully connected with
  28. the hidden layer, because this would yield too many weights and make
  29. the network too large to be used as an example. Instead, only each
  30. unit of the same input row is connected with a hidden unit of the
  31. first group, for a total of 24 input rows (24 hidden units of the
  32. first group). Also, each unit of the same input column is connected
  33. with one hidden unit of the second group, for a total of 24 columns
  34. (24 hidden units of the second group).
  35.  
  36. All hidden units are fully connected with all output units.
  37.  
  38.  
  39. Config-Files:    font.cfg
  40. =============
  41.  
  42. This example is best displayed with one large 2D network display for
  43. the whole network (without unit numbers or activations) and one 2D
  44. display for the output units with names (classes) and activation
  45. values.
  46.  
  47.  
  48. Result-Files: font1.res
  49. =============
  50.  
  51. This file is an example for Result files. You can analyze them with the tool
  52. analyze in the tools directory.
  53.  
  54.  
  55. Hints:
  56. ======
  57.  
  58. This is NOT an example of a 'real world' neural network character
  59. recognition network, but a toy example to be played with. The number
  60. of characters is much too small for the network size.
  61. However, it makes for a visually appealing demonstration of the simulator.
  62.  
  63. The following table shows some learning functions one may use to train
  64. the network. In addition, it shows the learning-parameters and the
  65. number of cycles we needed to train the network successfully. These
  66. are not necessarily the best parameters. They are given as starting
  67. points for own experiments and should not be cited in comparisons of
  68. learning algorithms or network simulators.
  69.  
  70. Learning-Function               Learning-Parameters       Cycles
  71.  
  72. Backpropagation                 2.0                       100
  73. Backpropagation with momentum   0.8  0.6  0.1              30
  74. Quickprop                       0.1  2.0  0.0001           50 
  75. Rprop                           0.6                        50
  76.  
  77. In this example Backpropagation with momentum seems to be the most
  78. stable learning algorithm giving the least classification error on the
  79. training set.
  80.  
  81.  
  82. =============================================================================
  83.     End of README file
  84. =============================================================================
  85.